約 6,401,541 件
https://w.atwiki.jp/hisashis/
@wikiへようこそ ウィキはみんなで気軽にホームページ編集できるツールです。 このページは自由に編集することができます。 メールで送られてきたパスワードを用いてログインすることで、各種変更(サイト名、トップページ、メンバー管理、サイドページ、デザイン、ページ管理、等)することができます まずはこちらをご覧ください。 @wikiの基本操作 用途別のオススメ機能紹介 @wikiの設定/管理 おすすめ機能 気になるニュースをチェック 関連するブログ一覧を表示 その他にもいろいろな機能満載!! @wikiプラグイン @wiki便利ツール @wiki構文 バグ・不具合を見つけたら? お手数ですが、こちらからご連絡宜しくお願いいたします。 ⇒http //atwiki.jp/guide/contact.html 分からないことは? @wiki ご利用ガイド よくある質問 @wikiへお問い合わせ 等をご活用ください
https://w.atwiki.jp/hisashis/pages/6.html
アーカイブ @wikiのwikiモードでは #archive_log() と入力することで、特定のウェブページを保存しておくことができます。 詳しくはこちらをご覧ください。 =>http //atwiki.jp/guide/25_171_ja.html たとえば、#archive_log()と入力すると以下のように表示されます。 保存したいURLとサイト名を入力して"アーカイブログ"をクリックしてみよう サイト名 URL
https://w.atwiki.jp/ohden/pages/551.html
Googleウェブマスターツールの設定 まず、 Googleウェブマスターツール を開く。 ここでGoogleアカウントが必要となるので、あらかじめ@wikiと紐付けるGoogleアカウントを用意しておく。 で、登録したい@wikiのURLを書いて『サイトを追加』ボタン押下。 するとこんな画面が出てくる。一般サイトだと全部選択してヘッダ領域に貼り付けるんだけど、@wikiの場合、『content="』から『"』まで囲まれてる中の文字だけが必要になる。とりあえず、まるっとメモ帳にでもコピーしておくのが良い。 コピった後に、このウィンドウは閉じちゃダメ。後から使うので! 次に、別窓で登録したい@wikiの設定画面を開く。 で、メニューの中から『こだわり設定』を開く。こだわり設定の画面の中の『Google ウェブマスター ツール』の項目を探す。 テキストボックスがあるので、そこに先ほどGoogle ウェブマスターツールからコピって来た『content』の値を貼り付ける。 貼り付けたら、最下部にある『設定変更』を押下する。『設定を変更しました』って赤字で出るのをちゃんと確認したら、Googleウェブマスターツールのウィンドウの方へ戻る。 Googleウェブマスターツールの方へ戻ったら、『確認』を押下。 画面が切り替わるので、『続行』を押下。 左側のメニューから『クロール』の『サイトマップ』を押下。 画面が切り替わったら、右上の『サイトマップの追加/テスト』を押下。テキストボックスに『sitemaps.xml』と入力し、『サイトマップを送信』を押下。 こんな画面が出るから『ページを更新する。』を押下。 これでとりあえず、サイトマップがgoogleに送信された。今後はサイトマップを利用してクロールしてくれる。 更新日: 2014年01月16日 (木) 16時05分04秒 とてもわかりやすかったです。助かりました! -- (名無しさん) 2014-12-01 16 06 39 参考になりますた。 -- (Siketyan) 2015-03-30 18 48 40 名前 コメント すべてのコメントを見る
https://w.atwiki.jp/openutau/
有志による編集大歓迎。 OpenUtau atwikiへようこそ。あなたは - 人目のOpenUtauerです。キリバンを踏んでも報告等は大丈夫です。 OpenUtau atwikiへようこそ! UTAUの有志wikiはあるのにOpenUtauは無い...作っちゃうか。そんな場所です。 誰でも加筆修正OKです。どんどん良くしていきましょう。 公式wikiもありますが、こちらは有志なのでどんどん変更を加えられます ページ OpenUtauとは? 技術的情報 関連リンク OpenUtau公式ページ OpenUtau GitHub
https://w.atwiki.jp/python-client/pages/7.html
RSSを取り込んで一覧表示(rss) #rss(ここにRSSのURL) もしくは #rss(ここにRSSのURLを入力) と入力することで指定したRSSを取り込んで一覧表示します。 詳しくはこちらをご覧ください。 =>http //www1.atwiki.jp/guide/pages/269.html#id_a0e79757 たとえば、#rss(http //www1.atwiki.jp/guide/rss10_new.xml) と入力すると以下のように表示されます。 #showrss plugin Error showrssプラグインでのatwiki.jpのRSSの取り扱いはできません。#recentなどをご利用ください。
https://w.atwiki.jp/wiki1_test/pages/3385.html
http //www1.atwiki.jp/test/new/じゃけえ
https://w.atwiki.jp/lashcrea/pages/10.html
マ創の掲示板 ※ツイッターの名前で書き込んでください 言の葉党との連立白紙撤回するんだなそれならラシュクリエ人民共和国は敵だぞそれでもいいんだな -- ヘリウム (2022-11-26 10 08 42) かそすぎ -- 固定資産税 (2022-11-26 15 38 16) 学校のPCでネットサーフィンする悲しいモンスター -- 美少女鳳 (2022-11-26 21 16 02) 舛添要一 -- 固定資産税 (2022-11-26 21 20 57) 過疎化 -- ヘリウム (2022-11-26 21 22 13) ちら…… -- Maple🇨🇦 (2022-11-26 21 23 28) まあここは本格的な議論よりは主に雑談用かな -- 美少女 (2022-11-26 21 25 33) 誰かーーーーーーーー -- 美少女鳳 (2022-11-26 21 29 15) 鳳が... -- ヘリウム (2022-11-26 22 06 09) 皆を呼んでできてくれ… -- 鳳 (2022-11-26 22 14 43) うおおおお -- ヘリウム (2022-11-26 22 41 32) 頼む… -- 鳳 (2022-11-26 22 54 10) インスタライブブラウザだと見れないのか -- Maple🇨🇦 (2022-11-27 21 16 55) やあ -- 固定資産税 (2022-11-27 21 18 56) ゆうぼーさん -- Maple🇨🇦 (2022-11-27 21 28 15) 水星の魔女録画みたら来るわ -- 鳳 (2022-11-27 21 32 04) ヘリウム -- うおおお (2022-11-27 21 32 36) うおおおお(?) -- Maple🇨🇦 (2022-11-27 21 33 17) ヘリウム -- 名前とコメント逆にしてたわ (2022-11-27 21 49 43) こっちか -- ヘリウム (2022-11-27 21 49 54) 小沢一郎 -- 友引 (2022-11-27 22 48 07) こおおおおおおい -- 鳳 (2022-11-27 22 48 08) 江田三郎 -- 友引 (2022-11-27 22 48 49) おおおおおい -- 鳳 (2022-11-27 22 48 57) 江田五月 -- 友引 (2022-11-27 22 49 13) Twitterでみんな読んでくれ -- 鳳 (2022-11-27 22 49 34) 黒田寛一 -- 友引 (2022-11-27 22 52 28) 本多延嘉 -- 友引 (2022-11-27 22 53 16) ヌゥン!!!ヘッ!!ヘッ!! -- ヘリウム (2022-11-27 22 55 03) ぽのりん呼んで来い!(謎の指名) -- 鳳 (2022-11-27 22 56 39) なんだここ() -- べくとる少尉 (2022-11-27 22 56 42) ポムポムやね -- あぎょー (2022-11-27 22 58 15) 鳳専用と化したマ創atwiki -- ヘリウム (2022-11-27 22 58 50) 秋田明大 -- 友引 (2022-11-27 23 00 16) 友引どうした -- 鳳 (2022-11-27 23 00 59) ここはマ創の雑談と下ネタ板や!() -- 鳳 (2022-11-27 23 02 48) まんこ -- ヘリウム (2022-11-27 23 08 52) 出馬します(ヤケクソ) -- 鳳 (2022-11-27 23 34 34) あいむめーぷる -- Maple🇨🇦 (2022-11-28 06 24 46) mapleさんだ!!! -- ヘリウム (2022-11-28 06 25 04) mapleです -- Maple🇨🇦 (2022-11-28 06 30 25) こんにちは! -- ヘリウム (2022-11-28 06 54 05) プレゼン用ページをこのwikiに作成してくれるともっとありがたい -- 鳳 (2022-11-28 21 36 18) さて誰か来てくれるのか -- 鳳 (2022-11-28 22 01 37) 来たぞ!!! -- ヘリウム (2022-11-28 22 14 06) おしヘリウム皆を呼んで来い!主に正当に勧誘しようとしてる奴! -- 鳳 (2022-11-28 22 19 00) 労働党に来い!!! -- ヘリウム (2022-11-28 22 36 03) 他の党の人は!? -- 鳳 (2022-11-28 22 40 13) 労働党だ!!! -- ヘリウム (2022-11-28 22 48 36) しつけえ! -- 鳳 (2022-11-28 23 18 24) カナダは遊びに来た -- Maple🇨🇦 (2022-12-03 19 11 09) うおお -- ヘリウム (2022-12-08 22 33 28) 雪の進軍氷を踏んで -- てば (2023-02-06 20 59 46) フォートナイト -- フォートナイト (2023-02-20 23 29 59) 名前 コメント
https://w.atwiki.jp/cscd/pages/181.html
くだらないですけど、atwikiを書いてる時にリンクを簡単につくるためのスクリプトを書きました。Chromeで使えます。Javascriptだし、他のブラウザでも使えんのかなあ。 javascript window.prompt( , [[ +document.title+ +location.href+ ]] );void(0); どんな風に動作するのか試す場合はここをクリック。 参考 Google Chromeちゃんがエロ過ぎる! - 俺の邪悪なメモ
https://w.atwiki.jp/novpat/pages/34.html
機械学習最尤推定法 ベイズ推定法 MAP推定法(最大事後確率推定法) ノンパラメトリック法 決定理論誤認識率最小化法 期待損失最小化法 棄却オプション 統計学 ベイズ統計学ベイズ推論の概要 ベイズの定理 パターン認識への3つのアプローチ 決定理論 最尤推定法最尤推定法の概要 確率モデル 情報理論情報量 エントロピー カルバックライブラー情報量 機械学習 学習データセットから確率分布を推定することを機械学習という。とくに、単一データからなる学習データセットから確率分布を推定することを教師なし学習といい、二つ(以上)のデータからなる学習データセットから結合分布もしくは条件付き分布を推定することを教師あり学習という。 無作為抽出されたサンプル集団から元の確率分布を推定することになるので、機械学習は推測統計学と関係が深い。実際、機械学習で使う技法の多くは推測統計学のものである。 機械学習には、大きく分けてパラメトリックなアプローチとノンパラメトリックなアプローチとがある。パラメトリックなアプローチでは、確率分布関数を一次独立な関数の線型(非線型)結合によって表現し、そのパラメーターを推定する。一方、ノンパラメトリックなアプローチでは、データ集合から直接に目的の確率を計算する。 最尤推定法 パラメトリックなアプローチにおいて、もっともポピュラーかつ古典的な推定法が最尤推定法である。変数の確率分布が、パラメーターを用いて条件付き確率であらわされるとき、尤度関数を最大化するを推定値とする: 。 実用的には尤度関数を直接最大化するのではなく、対数尤度関数を最大化することが多い。対数をとることで、 となり、解析的な取り扱いが容易となるためだ。とくに、確率分布が指数関数族であらわされる場合は右辺が多項式になるので、解析的にとなるを求めることができる。 ベイズ推定法 パラメトリックなアプローチにおいて、本来、定数であるはずのモデルパラメーターに不確実性があることをみとめ、その不確実性をも評価する推定法がベイズ推定法である。モデルの不確実性は(ベイズ)確率によって定量的に表現する。古典的な確率論の立場では、確率は客観的な頻度としてしか解釈されないので、定数であるモデルパラメーターに確率を定義することはできない。そのため、ベイズ主義者のなかでしか認められていない推定法である。 ベイズ推定法では、まず、データセットから確率分布を求める。次に、これをパラメーターについて周辺化することで、を推定する: 。 ベイズ推定法の利点としては、次のものが挙げられる。 モデルの複雑度が高い場合でも、オーバーフィッティング(モデルパラメーターの過適応)を避けることができる。 逐次的な学習が容易に導入できる。今、モデルパラメーターの確率分布が既知であるとする(事前確率)。ここで、新しい情報が得られたとすると、ベイズの定理より、と更新できる(事後確率)。さらに、新しい情報を得られたとすると、と更新できる。これより、帰納的にが学習できる。 MAP推定法(最大事後確率推定法) 最尤推定法とベイズ推定法の中間に位置する推定法である。ベイズ推定法と同様に、モデルパラメーターに不確実性があることを認めている。 MAP推定法では、ベイズ推定法のようにパラメーターについて周辺化するのではなく、確率分布を最大化するを推定値とする: 。 は、に関する情報が得られる前からわかっている確率分布だから、事前確率分布とよぶ。一方、は、に関する情報が得られた後の確率分布だから、事後確率分布と呼ぶ。事前確率を事後確率に変換するために必要なは尤度関数である。 ノンパラメトリック法 決定理論 誤認識率最小化法 期待損失最小化法 棄却オプション 統計学 無作為抽出されたサンプル集団から母集団の確率分布を推定する方法論が統計学である。 確率分布の推定方法には、大きく分けてパラメトリックモデルとノンパラメトリックモデルがある。パラメトリックモデルは、確率分布を関数の線型(非線型)結合によって表現し、そのパラメーターを推定することで、確率分布の推定をおこなう。一方、ノンパラメトリックモデルは、今現在得られているデータ集合から目的の確率分布を計算する。 パターン認識や回帰分析は、目的変数と従属変数の結合分布もしくは条件付き分布を推定することと言い換えることもできる。 ベイズ統計学 ベイズ推論の概要 ベイズ推論とは、確率の加法定理や乗法定理を過不足なく用いて(未知)変数の確率分布を推論することである。従来の方式(未知変数の不確実性を無視し一つの推定値を求めていた)とは異なり、すべての可能性を保持・評価するため、 ベイズの定理を用いることで、逐次的な学習(確率分布の更新)が自然に導入できる。今、目的変数の確率分布が既知であるとする(事前確率)。ここで、新しい情報が得られたとすると、ベイズの定理より、と更新できる(事後確率)。さらに、新しい情報を得られたとすると、と更新できる。ただし、逐次的に得られる情報が独立であると仮定できる場合は(ほとんどの例でできる)、である。これをナイーブベイズ識別器という。最尤推定法でも、Robbins-Monroアルゴリズムを用いれば、逐次的な学習は可能であるが、収束スケジュールの調整など技巧的なテクニックを必要とする。 期待値を推定値とすることで、学習時に含まれる誤差(外れ値)の影響を少なくできる。 決定理論と組み合わせることで、最適な意志決定(事後確率の最大化 or 期待損失の最小化)ができる。 棄却オプションを利用できる。 確率モデル(独立に学習した結果)の結合が容易である。 というメリットがある。 ベイズ推論をおこなおうとすると、客観確率(頻度としての確率)に加えて主観確率(不確実性の尺度としての確率)をも確率として認める必要がでてくる。というのも、ベイズ推論にしたがえば、頻度の定義できない変数にも確率分布が定義できてしまうためである。たとえば、正規分布にしたがって生成された乱数列から元の正規分布の平均を推定することを考える。このとき、は間違いなく定数であり確率(頻度)を伴う変数ではない。しかし、ベイズ推論にしたがうと、の確率分布を求める(考える)ことになる。確率を不確実性の尺度として理解することで、この矛盾が解消できるのである。 ベイズの定理 ベイズ推論では、未知変数の確率分布を求めようとする。そのため、確率分布の更新を可能とするベイズの定理: は大きな意味をもつ。は確率変数である。確率分布を事前確率, を事後確率とよぶ。は、という情報を得る前にわかっている確率分布だから事前確率であり、はという情報を得た後にわかる確率分布だから事後確率である。ベイズの定理によれば、事後確率は、事前確率に尤度関数を掛けることで得ることができる。 パターン認識への3つのアプローチ 生成モデル |を入力変数、を目的変数とする。結合分布をモデル化し、決定理論を用いることでの最適値を決定する。このモデルの最大の特徴は、サンプリング法によって人工の入力列を生成できる点にある。これによって学習データの不足領域が明らかになる。入力変数の確率分布までも求めなければならないため、3つのアプローチのなかで最も手間がかかる。特に入出力空間が大きい場合は、パラメトリック学習を用いないと安定した識別器を得ることは難しい。 識別モデル |事後確率を直接モデル化する。推論と意思決定だけが問題である場合、識別モデルで十分である。 識別関数モデル |識別関数の関数形を直接モデル化する。このとき、学習の対象は関数のパラメーターとなる。このアプローチは、他の2つの方法と異なり、入力変数や出力変数の確率分布を考慮しない。そのため、ベイズ推論をおこなうメリットのうち、2.〜5.は使えない。しかし、一度学習さえ完了すれば、意思決定は高速にできるので、音声認識などの実時間処理をしたいシステムに向いている。誤差逆伝搬法やSVMは、ノンパラメトリックな識別関数の学習法の一種である。 決定理論 ベイズ推論によって得られた確率分布から最適な意思決定(行動決定)するための方法論が決定理論である。入力ベクトルをとすると、入力空間のすべてに最適なクラスを割り当てることが目標となる。以後の説明では、結合確率は既知とする。クラスの決定領域(クラスに割り当てられたの集合)はで表す。 ベイズ決定則(事後確率最大化法) |事後確率は、という乗法が与えられたとき、クラスがとなる確率を表しているが、クラスがで正しい確率と読み替えることもできる。このように読み替えると、決定領域が正しい識別結果を返却する確率はによって表すことができる。この確率を最大化するように決定領域を設定したい。その方法は、上式より明らかに、事後確率を最大にするクラスへ分類することだ。 期待損失最小化 |入力にクラスを割り当てたときの期待損失(損失の期待値)を考える。損失はと思っていたものが 期待値 |目的変数が実数ならば・・・ 棄却オプション | 最尤推定法 最尤推定法の概要 ベイズ推論とは異なり、頻度主義にもとづく推定法である。 確率モデル 情報理論 情報量 エントロピー 期待できる情報量。驚きの期待値。分布の一様性を定量的に表したもの。 カルバックライブラー情報量
https://w.atwiki.jp/satou/pages/577.html
https //w.atwiki.jp/fortnitech/